PyTorch项目笔记(三)使用ImageNet预训练ResNet18模型训练图像分类模型 |
您所在的位置:网站首页 › resnet18 pytorchvirsion 训练自己 › PyTorch项目笔记(三)使用ImageNet预训练ResNet18模型训练图像分类模型 |
目录
1 加载ImageNet预训练模型2 准备数据集2.1 加载数据集2.2 使用matplotlib可视化数据集
3 模型训练函数4 使用torchvision微调模型5 观察模型预测结果6 固定模型参数
1 加载ImageNet预训练模型
在torchvision.model包中定义了许多模型用于完成图像方面的深度学习任务,包括: 图像分类语义分割(semantic segmentation)目标检测(object detection)实例分割(instance segmentation)人物关键点检测(person keypoint detection)视频分类下面将给出部分预训练模型的例子: import torchvision.models as models resnet18 = models.resnet18() alexnet = models.alexnet() vgg16 = models.vgg16() squeezenet = models.squeezenet1_0() densenet = models.densenet161() inception = models.inception_v3() googlenet = models.googlenet() shufflenet = models.shufflenet_v2_x1_0() mobilenet = models.mobilenet_v2() resnext50_32x4d = models.resnext50_32x4d() wide_resnet50_2 = models.wide_resnet50_2() mnasnet = models.mnasnet1_0()当传入pretrained=True参数时,模型会从网络上下载状态字典并保存到本地磁盘,最终加载状态字典得到预训练的模型。 resnet18 = models.resnet18(pretrained=True) print(resnet18)使用print()函数可查看ResNet18模型的内部结构,结果如下: ResNet( (conv1): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False) (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (relu): ReLU(inplace=True) (maxpool): MaxPool2d(kernel_size=3, stride=2, padding=1, dilation=1, ceil_mode=False) (layer1): Sequential((0): BasicBlock(...) (1): BasicBlock(...)) (layer2): Sequential((0): BasicBlock(...) (1): BasicBlock(...)) (layer3): Sequential((0): BasicBlock(...) (1): BasicBlock(...)) (layer4): Sequential((0): BasicBlock(...) (1): BasicBlock(...)) (avgpool): AdaptiveAvgPool2d(output_size=(1, 1)) (fc): Linear(in_features=512, out_features=1000, bias=True) )此处省略BasicBlock内部构成,如感兴趣可自行输出进行观察。 2 准备数据集本文使用小型数据集hymenoptera进行训练,该数据集是ImageNet的子集,只包含蚂蚁和蜜蜂两个类别。 需要下载数据集可点击链接:hymenoptera数据集 2.1 加载数据集加载数据集代码如下所示: from torchvision import datasets, transforms # 在训练集上:扩充、归一化 # 在验证集上:归一化 data_transforms = { 'train': transforms.Compose([ transforms.RandomResizedCrop(224), transforms.RandomHorizontalFlip(), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]), 'val': transforms.Compose([ transforms.Resize(256), transforms.CenterCrop(224), transforms.ToTensor(), transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225]) ]), } #数据集存放路径 data_dir = 'data/hymenoptera_data' #使用torchvision.datasets.ImageFolder类快速封装数据集 #此处使用了lambda语法 image_datasets = {x: datasets.ImageFolder(os.path.join(data_dir, x), data_transforms[x]) for x in ['train', 'val']} dataloaders = {x: torch.utils.data.DataLoader(image_datasets[x], batch_size=4, shuffle=True, num_workers=4) for x in ['train', 'val']} #读取数据集的数目 dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']} #读取数据集中的图像种类 class_names = image_datasets['train'].classes 2.2 使用matplotlib可视化数据集由于一个batch中的图像是保存在tensor中,一张维度是[H,W,C]、值范围是[0,255]的图片需要经过ToTensor转换成维度是[C,H,W]、值范围是[0,1]的Tensor,在经过Normalize完成归一化。而使用matplotlib显示的图像需要对图像进行反向操作才能正常显示。 import matplotlib.pyplot as plt def imshow(inp, title=None): # 可视化一组 Tensor 的图片 inp = inp.numpy().transpose((1, 2, 0)) #转换图片维度 mean = np.array([0.485, 0.456, 0.406]) std = np.array([0.229, 0.224, 0.225]) inp = std * inp + mean #反向操作 inp = np.clip(inp, 0, 1) plt.imshow(inp) if title is not None: plt.title(title) plt.pause(0.001) # 暂停一会儿,为了将图片显示出来 # 获取一批训练数据 inputs, classes = next(iter(dataloaders['train'])) # 批量制作网格 out = torchvision.utils.make_grid(inputs) imshow(out, title=[class_names[x] for x in classes])运行结果如下图所示。 微调是值在创建模型时,使用预训练模型来初始化网络,而非随机初始化网络,并且权重可以随着训练的进行而发生改变。对预训练模型进行微调的三个步骤: 替换输出层。将ResNet18的最后一个全连接层(输出1000维)替换维新的全连接层(输出2维)。训练输出层。新的输出层会将前面的层提取出的低级特征映射待我们所期望的类别的概率。训练其余层。将这些层的权重标记为需要求导。 具体代码如下所示: model = models.resnet18(pretrained=True) # 加载预训练模型 num_ftrs = model.fc.in_features # 获取低级特征维度 model.fc = nn.Linear(num_ftrs, 2) # 替换新的输出层 model = model.to(device) # 交叉熵作为损失函数 criterion = nn.CrossEntropyLoss() # 所有参数都参加训练 optimizer_ft = optim.SGD(model.parameters(), lr=0.001, momentum=0.9) # 每过 7 个 epoch 将学习率变为原来的 0.1 scheduler = optim.lr_scheduler.StepLR(optimizer_ft, step_size=7, gamma=0.1) model_conv = train_model(model_conv, criterion, optimizer_conv, exp_lr_scheduler, num_epochs=5)此处训练五轮为例,训练结果如下图所示。 微调预训练模型,需要修改模型的内部结构,使其符合具体任务。模型所用框架不一样,在 将其他框架编写的模型迁移到 PyTorch 中时,无法使它们兼容。此时可以采取 Pipeline 形式将预训 练模型的参数固定,或者说将前一个模型的输出保存下来,将该输出作为 PyTorch 模型的输入。 采取这种思路,我们可以将模型除了输出层之外的所有层看成一个特征提取器。在训练模型 时,这些层的权重不参与训练,不可优化。在 PyTorch 中将权重设置为不可训练,只需将 requires_grad 设置为 False 即可。例如,下述代码可以将 ResNet18 的所有层设置为不可训练。 model_conv = torchvision.models.resnet18(pretrained=True) # 加载预训练模型 for param in model_conv.parameters(): # 锁定模型所有参数 param.requires_grad = False num_ftrs = model_conv.fc.in_features # 获取低级特征维度 model_conv.fc = nn.Linear(num_ftrs, 2) # 替换新的输出层 model_conv = model_conv.to(device) criterion = nn.CrossEntropyLoss() # 只有最后一层全连接层fc,参加训练 optimizer_conv = optim.SGD(model_conv.fc.parameters(), lr=0.001, momentum=0.9) # 每过 7 个 epoch 将学习率变为原来的 0.1 exp_lr_scheduler = lr_scheduler.StepLR(optimizer_conv, step_size=7, gamma=0.1) model_conv = train_model(model_conv, criterion, optimizer_conv, exp_lr_scheduler, num_epochs=5) visualize_model(model_conv) plt.ioff() plt.show()
|
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |